يكشف تقرير صادر عن مؤسسة البحوث السياسية والاقتصادية والاجتماعية (SETA) بعنوان "الخوارزميات القاتلة: الدور المدمر للذكاء الاصطناعي في حرب غزة" عن واقع مقلق، حيث يعتمد الجيش الإسرائيلي بشكل متزايد على الذكاء الاصطناعي في عملياته العسكرية، ما يغيّر شكل الحروب جذريًا. في هذا النموذج الجديد، تتخذ الخوارزميات لا البشر قرارات الحياة والموت، ما يفاقم عدد الضحايا المدنيين ويقوض القوانين الدولية التي تحمي المدنيين وقت النزاع.

يؤكد التقرير أن استخدام إسرائيل لأنظمة مثل لافندر وحبسورة ألغى عنصر التقدير البشري، خاصة في غزة. هذه الأنظمة تختار الأهداف وتنفذ الهجمات بسرعة غير مسبوقة، لكن غالبًا من دون التمييز بين المدنيين والمقاتلين، مما يؤدي إلى نتائج كارثية.

بعد عملية “طوفان الأقصى” في 7 أكتوبر 2023، استخدم الجيش الإسرائيلي أدوات تعتمد على الذكاء الاصطناعي لتحديد أهداف القصف في غزة. حبسورة، الذي دخل الخدمة عام 2021، استُخدم لتسريع تحديد الأهداف عبر تحليل بيانات من طائرات مسيرة، وأقمار صناعية، واتصالات ومواقع التواصل الاجتماعي. لكن رغم وعوده بالدقة، نُفذت معظم الضربات باستخدام قنابل غير موجهة، مع تجاهل واضح لحماية المدنيين.

أما لافندر، فصُمم لتحديد الأهداف والموافقة عليها خلال 20 ثانية فقط، غالبًا دون مراجعة بشرية حقيقية. أنشأ النظام قائمة بـ37 ألف شخص يُزعم انتماؤهم لحماس، رغم أن العديد منهم كانوا من ذوي الرتب الدنيا أو غير مشاركين في القتال. استُهدف هؤلاء غالبًا في منازلهم ليلًا أثناء تواجد أسرهم. على سبيل المثال، قصف مدرسة تابعة للأمم المتحدة في النصيرات في 7 يوليو 2024 أدى إلى مقتل 23 شخصًا وإصابة أكثر من 80، بينما أشار الجيش الإسرائيلي إلى أن 8 فقط من القتلى ينتمون لحماس. مصادر عسكرية إسرائيلية أكدت أن الجنود وصفوا الأهداف منخفضة الأهمية بـ"القمامة"، وأقروا بأن معظم الضحايا من النساء والأطفال. سمح النظام أيضًا بمعدل "خسائر جانبية" يصل إلى 20 مدنيًا في كل ضربة، دون تقييم حقيقي للتهديد.

استخدمت أنظمة الذكاء الاصطناعي أدوات مثل “أين الأب؟” لتتبع الأفراد وتحديد لحظة دخولهم منازلهم لتوجيه الضربات. يشير ذلك إلى وجود استراتيجية قتل جماعي مبرمجة تستند إلى كفاءة خوارزمية، وليس إلى تجنب الأذى. لا تدعم هذه الأدوات تقليل الخسائر بل تضاعفها، عبر أتمتة القرار وتوسيع نطاق القوة المميتة.

أشارت تقارير صحفية أخرى في مارس 2025 إلى أن أنظمة المراقبة الإسرائيلية تجمع بيانات حيوية وسلوكية عن الفلسطينيين لحظيًا، بما يشمل أنشطتهم على وسائل التواصل، وسجلات الهاتف، والعادات اليومية. تُستخدم هذه البيانات لاحقًا في اختيار الأهداف. أنظمة التعرف على الوجه في مدن مثل الخليل ترتبط بأدوات تنبؤ بالحركة تغذي برامج القصف مثل لافندر. بهذا الشكل، يتحول الروتين اليومي للفلسطينيين إلى مصدر استخباراتي حربي.

تشكل المحاسبة أحد أخطر التحديات في استخدام الذكاء الاصطناعي في الحرب. من المسؤول عندما تؤدي خوارزمية إلى مقتل مدني؟ تقول إسرائيل إن الضباط يوافقون على الأهداف التي تحددها الأنظمة، لكن التقرير يوضح أن كثيرًا من الجنود يعتمدون كليًا على النظام دون مراجعة. حتى الضربات التي يُتوقع أن تسفر عن مقتل 20 مدنيًا اعتُبرت "مقبولة"، مما يخلق فجوة في المسؤولية حيث لا يُحاسب أحد فعليًا على القتل، سواء كان جنديًا، قائدًا أو مطورًا للنظام. هذه الحالة تُعرف في التقرير بـ"فجوة المسؤولية".

يرصد التقرير أيضًا كيف حولت إسرائيل المدن الفلسطينية إلى سجون رقمية من خلال أنظمة مراقبة مثل بلو وولف وريد وولف ووولف باك. في الخليل، استخدم النظام الأخير لتحديد هوية المحتجزين عبر كاميرات المراقبة، بينما حولت تطبيقات مثل بلو وولف جمع البيانات إلى لعبة، حيث يكافَأ الجنود على عدد الوجوه الفلسطينية التي يلتقطونها. ريد وولف، المستخدم عند الحواجز، يحدد من يمر بناءً على تقييم لوني يعتمد على خوارزميات. هذه البيانات تُستخدم لاحقًا في اختيار أهداف للهجوم.

أثناء الحرب على غزة، نُصبت كاميرات التعرف على الوجه عند نقاط عبور مؤقتة، لرصد الفارين من شمال القطاع، وبعضهم تعرض للاعتقال أو الضرب بناءً على تطابقات خوارزمية، اتضح لاحقًا أنها خاطئة. يعيش السكان في ظل مراقبة دائمة، حيث يُسجل كل تحرك ويُحلل وقد يُفسر كتهديد. بعض الجنود أقروا بتجاهل حكمهم الشخصي لصالح النظام، ما يُجرد الناس من إنسانيتهم.

كما استخدمت إسرائيل طائرات مسيرة تعتمد على الذكاء الاصطناعي لمراقبة "السلوك المشبوه"، حيث يحدد النظام الأفراد الذين يخرجون عن نمطهم المعتاد ويصنفهم كأهداف، أحيانًا دون أي دليل حقيقي أو مراجعة بشرية.

رغم كل هذه الانتهاكات، يبقى رد الفعل الدولي ضعيفًا. انتقدت بعض منظمات حقوق الإنسان ومسؤولي الأمم المتحدة هذه الممارسات، لكن لا توجد قوانين دولية فعالة تنظم استخدام الأسلحة المستقلة. معظم قوانين الحرب وُضعت قبل ظهور هذه التقنيات، ولا تتناسب مع واقع اليوم. يدعو التقرير إلى تحرك عاجل لوضع قوانين جديدة تحظر الأسلحة المستقلة كليًا، وتعيد مسؤولية القرار في الحرب إلى البشر.

تحوّلت غزة إلى حقل تجارب لحروب تعتمد على الذكاء الاصطناعي، والنتائج تنذر بالخطر. اختفت المعايير الأخلاقية لصالح السرعة والأتمتة، بينما تدفع أرواح المدنيين الثمن. استخدام إسرائيل لهذه الأنظمة قد يمنحها تفوقًا عسكريًا مؤقتًا، لكنه يهدد بنسف القانون الدولي وفتح الباب لحروب بلا محاسبة، تقودها الآلات بدلًا من البشر.
 

https://www.dailysabah.com/opinion/op-ed/gaza-as-a-testing-ground-israels-ai-warfare